Световни новини без цензура!
Big Tech казва, че AI водните знаци могат да ограничат дезинформацията, но са лесни за избягване
Снимка: nbcnews.com
NBC News | 2024-03-19 | 22:54:52

Big Tech казва, че AI водните знаци могат да ограничат дезинформацията, но са лесни за избягване

Водните знаци са представени от Big Tech като един от най-обещаващите методи за борба с ескалиращия проблем с дезинформацията онлайн с AI. Но засега резултатите не изглеждат обещаващи, според експерти и преглед на дезинформацията, извършен от NBC News.

Главният съветник на Adobe и служител по доверие Дана Рао пише в публикация в блог през февруари че стандартът за водни знаци C2PA на Adobe, който Meta и други големи технологични компании са подписали, ще бъде инструмент за обучение на обществеността относно подвеждащия AI.

„С повече от два милиарда гласоподаватели, които се очаква да участват в изборите по света тази година, напредването на мисията на C2PA никога не е било по-критично“, пише Рао.

Технологиите са само в начален стадий и в ограничено състояние на внедряване, но вече е доказано, че водният знак е лесен за заобикаляне.

Много съвременни технологии за воден знак, предназначени да идентифицират AI- генерираната медия използва два компонента: невидим етикет, съдържащ се в метаданните на изображението, и видим етикет, насложен върху изображение.

Но и двата невидими водни знака, които могат да приемат формата на микроскопични пиксели или метаданни, и видимите етикети могат да бъдат премахнати, понякога чрез елементарни методи като екранни снимки и изрязване.

Досега големите социални медии и технологични компании не са задължили или наложили стриктно поставянето на етикети върху съдържание, генерирано или редактирано от AI.

Уязвимостта на водния знак беше показана в сряда, когато главният изпълнителен директор на Meta Марк Зукърбърг актуализира коричната си снимка във Facebook с генерирано от AI изображение на лами, стоящи на компютри. Създаден е с генератора на изображения с изкуствен интелект на Meta Imagine, който стартира през декември. Генераторът трябва да създава изображения с вградени етикети, които се показват като малък символ в долния ляв ъгъл на изображения като ламите на Зукърбърг.

Но на изображението на лама, генерирано от AI на Зукърбърг, етикетът не беше видим за потребители, излезли от Facebook. Освен това не се виждаше, освен ако не щракнете върху и отворите снимката на корицата на Zuckerberg. Когато NBC News създаде генерирани от изкуствен интелект изображения на лами с Imagine, етикетът можеше лесно да бъде премахнат чрез екранна снимка на част от изображението, която нямаше етикета в себе си. Според Meta невидимият воден знак се пренася в екранните снимки.

През февруари Meta обяви, че ще започне да идентифицира генерирано от AI съдържание чрез технология за воден знак и етикетиране на генерирано от AI съдържание във Facebook, Instagram и Threads. Водните знаци, които Meta използва, се съдържат в метаданни, които са невидими данни, които могат да се разглеждат само с технология, изградена за извличането им. В съобщението си Meta призна, че водният знак не е напълно ефективен и може да бъде премахнат или манипулиран при недобросъвестни усилия.

Компанията каза, че също така ще изисква от потребителите да разкриват дали публикуваното от тях съдържание е генерирано от AI и „може да наложи санкции“, ако не го направят. Тези стандарти идват през следващите няколко месеца, каза Мета.

Водните знаци на AI могат дори да бъдат премахнати, ако потребителят не възнамерява да го направи. Понякога качването на снимки онлайн премахва метаданните от тях в процеса.

Видимите етикети, свързани с водния знак, създават допълнителни проблеми.

„Отнема около две секунди, за да се премахне този вид воден знак“, каза Софи Тура, която работи за фирма за технологично лобиране и застъпничество в Обединеното кралство, наречена Control AI, която стартира през октомври 2023 г. „ Всички тези твърдения, че са по-строги и трудни за премахване, са склонни да отпадат.“

Старши технолог за Electronic Frontier Foundation, група с нестопанска цел за цифрови граждански свободи, пише, че дори и най-стабилните и сложните водни знаци могат да бъдат премахнати от някой, който има уменията и желанието да манипулира самия файл.

Освен премахването на водни знаци, те също могат да бъдат репликирани, отваряйки възможността за фалшиви положителни резултати, които да предполагат, че нередактираната и реалната медия всъщност е генерирана от AI.

Компаниите, които са се ангажирали със съвместни стандарти за водни знаци, са основни играчи като Meta, Google, OpenAI, Microsoft, Adobe и Midjourney. Но има хиляди AI модели, достъпни за изтегляне и използване в магазини за приложения като Google Play и уебсайтове като GitHub на Microsoft, които не са задължени към стандартите за водни знаци.

За стандарта C2PA на Adobe, който е приет от Google, Microsoft, Meta, OpenAI, големи новинарски издания и големи компании за фотоапарати, изображенията са предназначени автоматично да имат воден знак, съчетан с видим етикет, наречен „идентификационни данни за съдържание“.

Етикетът, който е малък символ, съставен от буквите „CR“  в ъгъла на изображение, е подобен на етикета Imagine на Meta. Тези невидими водни знаци се съдържат в метаданни, разположени в пиксел във визуално важна част от изображението, каза Рао от Adobe за NBC News през февруари. Както визуалният етикет, така и метаданните ще съдържат информация като например дали изображението е генерирано от AI или редактирано с инструменти за AI.

„Това е добронамерено, това е стъпка в правилната посока. Не мисля, че трябва да се разчита на него като решение, например, на всички проблеми, които идват с дълбоките фалшификати“, каза Тура.

Deepfakes са подвеждащи изображения, видеоклипове и аудио, които са редактирани или генерирани с AI. Те често се използват за насочване към хора – преобладаващо жени и момичета – с изображения и видеоклипове, които изобразяват техните лица и прилики в голи и сексуално явни сценарии без тяхното съгласие. Повече от тези deepfakes бяха публикувани онлайн през 2023 г., отколкото всяка друга година взети заедно, а нашумялите инциденти продължиха и през 2024 г. По-рано този месец NBC News установи, че Meta хоства стотици реклами от септември насам за deepfake приложение, което предлага възможност за „събличане“ ” снимки — 11 реклами показаха замъглени, голи снимки на „съблечени” изображения на актрисата Джена Ортега, направени, когато тя беше само на 16 години. След като спря десетки реклами преди това, Meta спря компанията зад рекламите едва след като NBC News се свърза.

Deepfakes също все повече се използват в измами и политическа дезинформация, включително относно изборите през 2024 г.

През януари дълбоко фалшиво автоматично обаждане, което позвъни на хиляди демократи от Ню Хемпшир, имитира гласа на Джо Байдън с AI и им каза да не гласуват на първичните избори. NBC News съобщи, че  консултант от Демократическата партия, свързан с конкурентна кампания, е платил на магьосник да създаде аудиото, което той е направил с помощта на AI софтуер от компанията ElevenLabs.

ElevenLabs вгражда водни знаци, недоловими за човешкото ухо, в аудио файлове, създадени с неговия софтуер. Всеки може да качи извадка в неговия безплатен „класификатор на реч“, за да сканира за тези водни знаци.

Но актът на използване на дълбоко фалшиво аудио за престъпни цели в реалния свят може да промени звуковия файл и да премахне тези водни знаци. Когато NBC News качи оригиналния файл на магьосника в класификатора на речта, ElevenLabs каза, че има 98% шанс техният софтуер да направи тази проба. Но когато NBC News качи запис на същото фалшиво обаждане на Байдън, което беше записано от гласовата поща на жител на Ню Хемпшир, получил обаждането – процес, който добави известно изкривяване към аудио файла – класификаторът каза, че има само 2% има вероятност софтуерът на ElevenLabs да е замесен.

Социалните медийни платформи и търсачки вече са пълни с дълбоки фалшификати, а магазините за приложения са пълни с услуги, които рекламират тяхното създаване. Някои от тези публикации и реклами съдържат дълбоки фалшиви голи и сексуално явни изображения с лица на деца.

Рао беше прагматичен относно обхвата, който собствената инициатива на Adobe за водни знаци може да има. Първо, каза той, обществеността трябва да разпознае етикетите, които показват генерирано от AI съдържание. За да бъде широко ефективна, обществеността ще трябва да се научи да проверява визуалните медии, преди да им се довери. Това би било голямо постижение. Рао сравни потенциалното преминаване към очакване и разпознаване на идентификационни данни за съдържание във визуални медии с обществената осведоменост за онлайн фишинг кампаниите — които междувременно рязко се увеличиха заедно с възхода на ChatGPT.

„Не е нужно да вярваме на всичко правилно“, каза той в февруарско интервю за NBC News през февруари. „Наистина трябва да работим допълнително върху важните неща, за да повярваме дали е вярно или не.“

Кат Тенбардж

Източник: nbcnews.com


Свързани новини

Коментари

Топ новини

WorldNews

© Всички права запазени!